Por qué es poco probable que tengamos inteligencia artificial general en un futuro próximo
Sam Altman, director ejecutivo de OpenAI, le comunicó recientemente al presidente Donald Trump durante una llamada telefónica privada que la tecnología llegaría antes del final de su mandato. Dario Amodei, director ejecutivo de Anthropic, el principal rival de OpenAI, reiteró a los podcasters que podría suceder incluso antes. El multimillonario tecnológico Elon Musk ha afirmado que podría estar disponible antes de fin de año.
En una encuesta reciente de la Asociación para el Avance de la Inteligencia Artificial, una sociedad académica de 40 años de antigüedad que incluye a algunos de los investigadores más respetados en el campo, más de tres cuartas partes de los encuestados dijeron que era poco probable que los métodos utilizados para construir la tecnología actual condujeran a la IAG.
Las opiniones difieren en parte porque los científicos ni siquiera se ponen de acuerdo sobre cómo definir la inteligencia humana, y discuten sin cesar sobre las ventajas y desventajas de las pruebas de CI y otros parámetros de referencia. Comparar nuestro propio cerebro con el de las máquinas es aún más subjetivo. Esto significa que identificar la IAG es esencialmente una cuestión de opinión. (El año pasado, en el marco de una demanda de gran repercusión, los abogados de Musk afirmaron que ya estaba aquí porque OpenAI, uno de sus principales rivales, firmó un contrato con su principal financiador en el que se compromete a no vender productos basados en tecnología de IAG).
Y los científicos no tienen pruebas contundentes de que las tecnologías actuales sean capaces de realizar incluso algunas de las tareas más sencillas que el cerebro puede realizar, como reconocer la ironía o sentir empatía. Las afirmaciones sobre la inminente llegada de la IAG se basan en extrapolaciones estadísticas y en ilusiones.